Dario Amodei, oprichter van de artificial intelligence (AI) startup Anthropic, werkte bijna vijf jaar bij OpenAI mee aan de ontwikkeling van de kunstmatige intelligentie achter ChatGPT.

Met Anthropic ontwikkelde hij de AI-chatbot ‘Claude’. Het bedrijf haalde in februari 300 miljoen dollar op bij Google. Dat gebeurde vlak nadat Microsoft zijn investering van 10 miljard dollar in OpenAI aankondigde.

Afgelopen dinsdag publiceerde Anthropic zijn laatste wapenfeit: een API voor Claude. Hiermee kunnen softwareontwikkelaars connectie maken met de AI-chatbot en het gebruiken in hun eigen applicaties.

Google investeerde in Anthropic om zich te sterken tegen de grootste concurrent op het gebied van AI op dit moment: OpenAI. Volgens Amodei blijkt uit vroege tests van gebruikers dat Claude betere gesprekken kan voeren en creatiever is dan het immens populaire ChatGPT, zo zegt hij tegen Insider.

Ondanks de investering werken Anthropic en Google aan hun eigen chatbots en large language models (LLM's, de kunstmatige intelligentie-technologie achter AI-chatbots). Claude wordt ondertussen al gebruikt door meerdere bedrijven, waaronder Quora en Notion.

Anthropic maakt Claude in twee varianten beperkt beschikbaar voor ontwikkelaars die ermee willen werken. De beste variant is simpelweg 'Claude'. De andere keuze is 'Claude Instant', een ietwat uitgeklede variant die sneller werkt en ook goedkoper is. Wel is deze volgens Anthropic iets minder capabel.

Anthropic werkt aan een 'constitutionele AI'

Hoewel Amodei jaren voor OpenAI werkte, kijkt hij compleet anders tegen de implementatie van chatbots aan. Anthropic wil dat de maatschappij begrijpt hoe deze AI-systemen werken, zodat ze kunnen worden gecontroleerd naarmate ze krachtiger worden.

Daarbij is het lastig dat dit soort kunstmatige intelligentie de neiging heeft om onverwachts te reageren. Om chatbots in het gareel te houden en ervoor te zorgen dat ze geen problematische output als racistische opmerkingen produceren, werkt Anthropic vanuit het idee van een 'constitutionele AI'. Dat omvat onder andere een document die klanten de basisprincipes van de werking van de AI uitlegt.

Dit constitutionele model, of wettelijke model, wijkt af van de manier waarop Google en OpenAI hun modellen trainen. Deze twee bedrijven gebruiken mensen om antwoorden van de chatbots te beoordelen en de juiste te selecteren. Hierdoor leert de chatbot gaandeweg hoe het het beste kan reageren.

Volgens Amodei heeft dit zogenaamde 'reinforcement-learning model' als nadeel dat de chatbot uiteindelijk als een gemiddeld mens gaat antwoorden. Het constitutionele model heeft hier volgens hem geen last van. Claude kan zijn eigen output bekritiseren en daarvan leren. Hij doet dit aan de hand van eerder ingediende 'wetten' van een klant. Hierdoor zou hij minder onverwachte antwoorden geven.

"Als iemand de chatbot ervan beschuldigd racistisch te zijn of politieke vooroodelen te hebben, dan is het vaak lastig om te zien waar het vandaan komt, en hoe het zichzelf deze manier van reageren heeft aangeleerd", zegt Amodei. "Het constitutionele model biedt hierin een bepaalde mate van transparantie."

Anthropic hoopt dat klanten uiteindelijk hun eigen wetten voor Claude kunnen instellen in de applicaties waarin ze hem gebruiken. Dat kan op dit moment nog niet. Dit gebrek wordt nu omzeild doordat Claude slechts voor een gelimiteerd aantal zaken in te zetten. Het kan bijvoorbeeld documenten scannen en hiervan een samenvatting genereren. Het is daarom niet aannemelijk dat hij controversiële meningen gaat verkondigen, aldus Amodei.

Chatbots willen nog wel eens 'hallucineren'

De chatbots van OpenAI en Google genereren regelmatig foute antwoorden. De vraagbaken schotelen deze antwoorden aan gebruikers voor alsof het de waarheid is, al heeft de software geen idee of hetgeen ze presenteren juiste of onjuiste informatie is. Dit gedrag van chatbots wordt 'hallucineren' genoemd.

Ook Claude kan hallucineren. Maar dat is volgens Amodei acceptabel op dit moment, aangezien het erdoor kan verbeteren. "Ik denk het een afweging is", zegt de topman. "Je kunt ervoor zorgen dat een model nooit hallucineert, maar daarmee kan hij nooit antwoord geven op de vragen die je stelt. Het probleem is op te lossen, maar je wilt het oplossen terwijl het model nuttig werk levert."

Volgens Amodei is het belangrijk dat de feitelijke accuraatheid van chatbots verbeterd wordt. Hij denkt dat dit moet lukken. "We moeten deze modellen kunnen vertrouwen. Daar zetten wij ons voor in."

LEES OOK: Twee medewerkers van Google bouwden een paar jaar geleden een AI-chatbot die sterk op ChatGPT leek – maar Google vond ‘m niet veilig genoeg